Guide utilisateur de GranulatShiny

Page d’accueil


GranulatShiny est une application qui facilite le traitement statistique des données collectées dans le cadre des états initiaux, états de référence avant travaux et suivis environnementaux dédiés aux ressources halieutiques et à l’ichtyofaune relatifs à l’instruction des demandes d’autorisation de travaux d’extraction de granulats marins. L’application permet d’automatiser une partie de la mise en forme des données et du calcul d’indicateurs standards de biodiversité, et fournir des clés de décision pour les étapes plus avancées du traitement.
À partir des indicateurs calculés et des choix faits par l’utilisateur, l’application produit des figures et des tableaux dans des formats correspondant aux recommandations du protocole halieutique de référence et du guide méthodologique pour l’élaboration des Documents d’Orientation pour une Gestion durable des Granulats Marins (DOGGM). L’application fournit une interface graphique interactive basée sur le langage R dispensant l’utilisateur de sa maitrise pour se concentrer sur les paramètres d’intérêt pour le diagnostic des effets potentiels de l’extraction de granulats marins sur les ressources halieutiques. GranulatShiny est composée de 3 approches statistiques (explicative, descriptive et inférentielle) qui peuvent être utilisées principalement pour quantifier l’influence de l’extraction de granulats marins sur les communautés de poissons. Chaque approche va couvrir un attendu du protocole halieutique de référence. L’approche dite explicative présente et analyse les données à l’échelle de la communauté entière. L’approche descriptive présente et analyse les données à l’échelle d’une espèce. Et le recours à de l’analyse inférentielle est nécessaire pour évaluer la variabilité temporelle et spatiale des différents indicateurs des ressources halieutiques avant et pendant l’exploitation.
L’application dans sa version actuelle n’a pas de finalité réglementaire mais représente une aide pour la réalisation des rapports de suivi sur les communautés halieutiques. Elle ne vient pas remplacer le travail déjà fourni par les bureaux d’études mais vient compléter ce qui est déjà réalisé en permettant le montage d’un modèle statistique pour tester les effets de certains paramètres sur les communautés de poissons.


Ce guide a été rédigé afin de permettre à un utilisateur de GranulatShiny de s’approprier l’interface de l’application et de comprendre la méthodologie développée derrière chaque résultat fourni par l’application.
Avant de commencer, notez qu’il existes différents boutons dans l’application.

Les boutons avec une icône bateau vous permettent de passer d’un onglet à un autre.

Ceux portant un petit dragon désignent une étape obligatoire.

Les boutons avec une flèche permettent de télécharger des résultats de l’application. Les formats utilisés sont (csv, png, txt, rds).

Enfin, ceux avec un cercle contenant un i sont des aides que l’on peut faire afficher pour mieux comprendre un graphique ou autres objets proposés par l’application.

Lors du démarrage de l’application, la page d’accueil s’ouvre automatiquement. Sur cette page, les différents documents de références et d’informations sont listés avec leur URL associée en hyperlien. Un rappel du contexte sur l’extraction de granulats marins se trouve à droite de la page.
Pour passer à l’onglet suivant appuyer sur le bouton start de la page d’accueil dans l’application.

Mise en forme des données

 Informations à rentrer : chargement des jeux de données à analyser

La première étape d’utilisation de l’application est l’importation des données collectées. Celles-ci doivent répondre à un standard défini par l’Ifremer et dont le canevas peut être retrouvé ici (REF).
Trois cas de figures peuvent se présenter :

- Cas n°1 : vous découvrez l’outil et n’avez pas de données formatées pour tester ses fonctionnalités. Vous vous appuierez alors sur le jeu de données fourni avec l’outil
S’il s’agit d’un exercice de découverte de l’outil, un jeu de données factice est mis à disposition de l’utilisateur avec l’outil. Les données sont directement intégrées dans l’application et peuvent être chargées en sélectionnant la réponse non sous l’entête: “Avez vous vos propres données ?”. Ce jeu de données a une vocation pédagogique, il ne correspond à aucun cas réel et ne peut donc apparaître dans des documents à valeur administrative (i.e. rapports de suivi, état initial de l’environnement, état de référence avant travaux…).

Pour les besoins de la prise en main de l’outil, le jeu de données mis à disposition avec l’outil correspond à une concession fictive qui serait située dans le Golfe de Gascogne. Pour ce jeu de données fictif, on considère une concession en exploitation de 2000 à 2030, pour laquelle un suivi du compartiment halieutique a été mis en place tous les 5 ans avec 2 années d’état initial. Le plan d’échantillonnage fictif prévoit l’échantillonnage de 10 stations dans la concession et 10 stations hors de la concession. Ce choix ne correspond pas à un plan d’échantillonnage qui aurait été élaboré en connaissance des conditions environnementales du site (i.e. faciès sédimentaires, habitats benthiques) et ne correspond donc pas aux recommandations du protocole halieutique de référence. Ce plan d’échantillonnage fictif utilise un chalut à perche de 4,4 m d’ouverture horizontale avec des traits d’une longueur 1000 mètres.
Pour éviter toute confusion, les 4 espèces présentes dans ce jeu de données sont fictives également. Chaque espèce possède une dynamique de population associée à une loi de distribution de probabilité spécifique. Sachant cela, il est possible de contrôler les résultats issus des statistiques inférentielles et les effets de l’environnement sur l’espèce choisie. La première espèce Cephalaspis.tenuicornis n’est pas impactée par l’extraction, le temps, l’espace et les conditions environnementales. Ainsi aucun effet potentiel des variables sur l’abondance de cette espèce ne sera détecté. L’espèce Dimichtys.terreli est impactée seulement par l’extraction. On a donc un effet visible entre l’échantillonnage dans la zone ou hors de la zone d’exploitation. Leedsischthys.problematicus est impactée par l’extraction mais différemment en fonction des saisons. Les saisons n’influencent pas la population de cette espèce en temps normal mais l’interaction entre zone d’extraction et les saisons influencent l’abondance de cette espèce. Enfin, Latimeria.chalumnae n’est pas impactée par l’extraction, le temps, l’espace et les conditions environnementales mais la population subit une forte variabilité. Ces exemples permettent d’illustrer des réponses à l’environnement différentes pour mieux comprendre ce qui est recherché lors de l’analyse inférentielle.

- Cas n°2 : vous avez une première expérience de l’outil et vous vous lancez dans l’analyse de votre propre jeu de données mis au format recommandé
S’il s’agit d’un travail d’analyse de données réelles mises au format adéquat, vous devez sélectionner et charger dans l’interface graphique GranulatShiny les fichiers : « TuttiCatch.csv » et « TuttiOperation.csv » qui rassemblement l’essentiel des informations relatives au déroulé et aux résultats des suivis mis en œuvre. Seul le format csv est pris en charge. Le fichier « TuttiCatch.csv » correspond aux données de captures provenant de l’échantillonnage des populations de poissons et le fichier « TuttiOperation.csv » correspond à toutes les informations dérivées de la mise en œuvre du protocole pour chaque station d’échantillonnage (i.e. date de réalisation de la campagne et nom de celle-ci, engin de pêche dont les caractéristiques seront par ailleurs spécifiées dans les rapports associés au rendu des résultats, coordonnées géographiques des point de filage et de virage et horaires associés, durée totale du trait de chalut, profondeur de virage et de filage).
ATTENTION. Le format de données attendu doit être respecté sans quoi les routines de traitement ne peuvent se lancer correctement et un message d’avertissement apparaîtra sur l’interface. Dans ce cas, il est recommandé de revoir le format de votre fichier avec le format de fichier attendu. De plus, dans le cas de sous échantillonnage, il est important de bien les avoir réassemblés en une valeur totale par espèce et trait sinon un message sera renvoyé indiquant l’existence de doublons empêchant le traitement des données de captures.

Une fois les fichiers chargés, vous aurez accès à de nouvelles fonctionnalités. Une carte centrée sur la concession apparaîtra avec un affichage des stations d’échantillonnages. Vous aurez également la possibilité d’interagir avec les champs Stations d’impact et Stations de référence. Vous aurez aussi la possibilité d’importer des fichiers de type « ShapeFiles » pour afficher les contours de la concession d’extraction de granulats marins.
Sous l’entête “Stations d’impact”, vous pouvez vérifier et modifier la période d’exploitation. Vous devez également écrire dans l’espace correspondant les stations qui sont impactées par l’extraction. La couleur des différents prélèvements devient alors rouge pour les stations impactées (figure ci-dessous).
Conformément au paragraphe 8.3.2 du “Protocole halieutique”, l’application est développée pour le cas le plus courant d’un échantillonnage au chalut. Ainsi, il faut rentrer la longueur d’ouverture horizontale du chalut pour permettre le calcul des surfaces échantillonnées afin de travailler en densité. A ce stade de développement, l’application ne prend pas en compte d’autres engins de pêches.
Enfin, dans le cas exceptionnel où une station rentrée dans le fichier « TuttiOperation.csv » devrait être retirée a posteriori, il est possible de le faire sous l’entête “Stations de références”.

- Cas n°3 : vous avez déjà utilisé l’outil pour traiter vos données. Vous possédez un fichier récapitulatif de l’ensemble des paramètres utilisés pour une précédente analyse et vous souhaitez repartir de ce fichier
Dans le cas où vous avez déjà sauvegardé le paramétrage dans un fichier, vous pouvez l’importer à la suite des fichiers «TuttiCatch.csv » et « TuttiOperation.csv » ; ainsi les champs concernant les stations seront remplis automatiquement.

Production des tables d’indicateurs

Lorsque vous avez complété l’étape de chargement des données, vous pouvez appuyer sur le bouton avec le dragon vert. Cela lancera, en interne de l’application, le calcul des différents indicateurs et covariables nécessaires à l’analyse des données. Si vous n’appuyez pas sur ce bouton, rien ne se passera et vous ne serez pas en mesure de poursuivre l’analyse.

Nota Bene : Si vous avez plus d’une concession à analyser, vous pouvez revenir dans cet onglet, changer les fichiers correspondant à cette autre concession (« TuttiCatch.csv », « TuttiOperation.csv », « ShapeFiles »), puis appuyer à nouveau sur le dragon vert pour relancer la production des tableaux d’indicateurs.

Tableau général

Dans l’onglet “Tables”, il y a un tableau de données à droite et une partie interactive à gauche. Le tableau affiché est formé à partir des données renseignées dans l’onglet “Mise en forme des données”. Les fonctions de mises en formes du tableau vont calculer l’abondance, la biomasse et différents indicateurs de diversité pour chaque station et pour chaque campagne. La variable “traitement”, indicatrice de l’état de chaque station peut prendre deux valeurs “sans impact” ou “impact”. Elle renseigne si la station est à l’intérieur du périmètre de la concession et donc considérée comme étant impactée par les travaux d’extraction de granulats (i.e. modalité “impact”) ou si la station est en dehors du périmètre de la concession (i.e. modalité “sans impact”). Dans le cas d’un état initial, où il n’y a pas eu d’extraction sur le site de la concession étudiée, les stations situées à l’intérieur de la concession se voient attribuer l’état “sans impact” jusqu’à la date de début d’exploitation. Cela permet de les considérer comme reflétant l’état de l’environnement avant tout impact de l’extraction dans le cadre de l’analyse statistique déployée ensuite.

Lors des processus de mise en forme, la modalité saison est calculé à partir des dates de début d’échantillonage. C’est le cadre administratif qui est choisi par défault pour déterminer les saisons. Néanmoins, il est possible de changer cette colonne dans le tableau complet. Une attention particulière est portée à la notion de saison car cela fait partie intégrante de l’évaluation de la variabilité temporelle des communautés halieutiques (paragraphe 8.1.4 du protocole halieutique). Il est dit que Les effets de la variabilité saisonnière sur les assemblages (groupe d’espèces) halieutiques dépendent beaucoup de la latitude. Dans les eaux du Nord (mer du Nord, Manche, nord du golfe de Gascogne), il est courant de n’observer que deux types d’assemblages halieutiques par an, un assemblage d’hiver pendant environ huit mois de l’année et un assemblage d’été pendant environ quatre mois. Dans les eaux plus chaudes du Sud (sud du golfe de Gascogne, Méditerranée), les assemblages saisonniers sont potentiellement plus nombreux avec des assemblages de printemps et d’automne plus marqués. En modifiant cette colonne du tableau, il est ainsi possible de s’ajuster aux conditions locales et aux difficultés d’échantillonnages.

Vous pouvez modifier l’affichage général du tableau de données à l’aide de la flèche située sous le message “quel tableau afficher”. Il est possible de télécharger le tableau de données affiché et le paramétrage des stations d’impact utilisé dans l’onglet “Importation des données”. A l’issue de cet onglet, vous pouvez décider de réaliser la partie statistique exploratoire qui s’intéresse à la communauté dans sa globalité, ou de passer directement à la partie statistique descriptive qui se concentre sur une variable spécifique.

Statistiques exploratoires

Représentation des indicateurs

Dans cette partie on s’intéresse aux indicateurs de biodiversité et d’abondance de la communauté en comparant l’ensemble des stations avec celles de la concession et celles en dehors de la concession. Les indicateurs présentés sont ceux référencés dans le protocole halieutique article 8.4.1. Dans un premier temps, le tableau (ci-dessous) affiche les valeurs moyennes d’abondance, de biomasse, de richesse spécifique, des indicateurs de Shannon et de Simpson à l’intérieur de la concession, à l’extérieur de la concession, et au global pour chaque campagne. Ils sont calculées à partir des valeurs obtenues en chaque station échantillonnée.

Les graphiques proposés ci-dessous représentent les valeurs moyennes (points) et les percentiles 5 et 95 (barres hautes et basses) obtenus pour les mêmes indicateurs que ceux du tableau en fonction de la campagne sélectionnée, et selon le secteur échantillonné (paragraphe 8.4.1 du Protocole halieutique de référence). Ils permettent de visualiser rapidement les différences de valeurs obtenues entre la zone de concession et la zone de référence pour les indicateurs de biodiversité les plus courants.


L’intérêt de ces approches est de pouvoir comparer la communauté halieutique à plusieurs échelles. Dans un premier temps, la comparaison est axée sur intérieur ou extérieur de la concession. Mais si les campagnes sont regardées les unes après les autres, il pourrait être possible de distinguer des changements au cours du temps. Il y a à la fois un aspect spatial et temporel.

Représentation de la structure

Ce tableau représente la proportion de chaque espèce présente pour chaque campagne d’échantillonnage (paragraphe 8.4.1 du Protocole halieutique de référence). Le tableau permet de suivre l’évolution des populations d’espèces au fil du temps et offre une perspective sur les tendances de population. En observant les variations des pourcentages d’espèces d’une année à l’autre, il est possible de détecter des changements écologiques significatifs, tels que des fluctuations dans la biodiversité, des modifications des habitats ou des pressions environnementales. Ce tableau permet aussi d’identifier les espèces qui dominent dans un écosystème donné ainsi que celles qui sont en déclin. Enfin, il permet d’évaluer l’impact de la gestion mise en place sur la communauté de poissons.

Cette figure représente l’abondance de chaque espèce par campagne par ordre d’importance, la courbe d’abondance cumulées en fonction du nombre d’espèce par ordre d’importance et la courbe d’accumulation d’espèces (paragraphe 8.4.1 du Protocole halieutique de référence).

La première figure représente l’abondance de chaque espèce pour une campagne dans un histogramme ordonné par ordre d’abondance décroissante. Cela permet d’identifier les espèces dominantes, de visualiser les tendances temporelles, de détecter les variations saisonnières et annuelles, de comparer les données entre différentes campagnes et de communiquer les résultats de manière claire et concise. Pour plus de lisibilité, les espèces participant à moins de 1% de l’abondance totale ne sont pas affichées sur l’histogramme. La deuxième figure est une courbe d’abondance cumulée en fonction du nombre d’espèces par ordre d’abondance décroissante. L’abondance cumulée se réfère à la somme cumulative des abondances des espèces dans un ensemble de données, en commençant par l’espèce la plus abondante et en ajoutant successivement les abondances des espèces suivantes dans l’ordre décroissant. La courbe d’abondance cumulée permet d’évaluer la diversité et la répartition des espèces dans un écosystème ou dans un échantillon biologique. Plus la courbe est plate, plus la communauté est diversifiée alors qu’une courbe qui monte rapidement puis s’aplatit indique une communauté où quelques espèces sont très abondantes tandis que la plupart des espèces sont rares. Attention la courbe d’abondance cumulée apporte un intérêt lorsqu’il y a de nombreuses espèces différentes. Les résultats de l’exemple sont issus d’un jeu de données d’une concession fictive avec seulement 4 espèces. En pratique, vous ne devriez pas avoir ce genre de résultats avec vos données. La troisième figure représente le nombre d’espèces en fonction du nombre de sites échantillonnés. L’algorithme va, pour un nombre de sites donnés, tester toutes les combinaisons existantes dans le jeu de données et récupérer le nombre d’espèces pour chaque combinaison. Ensuite il fait une moyenne par nombre de site et c’est cette valeur moyenne qui est reportée dans le graphique. Cette courbe permet de vérifier qu’il y a un nombre suffisant de sites d’échantillonnages pour capter l’ensemble des espèces présentes dans la zone. Si c’est le cas, la courbe doit tendre vers un plateau.

Statistiques descriptives

Représentation des données

Dans cette partie on s’intéresse à un indicateur en particulier (abondance d’une espèce, biomasse totale, indicateur de diversité, …) et on le compare aux variables explicatives de notre jeu de données. On recherche des effets ou des corrélations possibles en amont des statistiques inférentielles. Il faut donc choisir une variable que l’on cherche à expliquer en fonction de paramètres liés à l’acquisition des données et à l’extraction. C’est sur cette variable que sera effectuée l’analyse statistique. Dans un premier temps le tableau qui résume la variable expliquée renseigne sur le nombre de zéros et valeurs manquantes, la longueur totale de la série de valeurs et la fraction du nombres de zéros et valeurs manquantes sur le total de valeurs. Ensuite, il fournit également la moyenne, les extrêmes, l’écart-type et les quartiles de la série. Les valeurs les plus importantes pour la partie statistiques inférentielles sont celles renseigant sur le nombre de zéros et valeurs manquantes (“n_missing”, “complete_rate”).

A la suite de ce tableau, il est possible de visuliser des boites à moustaches. La boite à moustache ou boxplot offre une autre représentation pour interpréter le lien entre la variable expliquée et les variables explicatives comme l’impact, l’année, l’enquête, la station et la saison. Dans les représentations graphiques de données statistiques, le boxplot est un moyen rapide de figurer le profil essentiel d’une série statistique quantitative. Le boxplot résume quelques indicateurs de position du caractère étudié (médiane, quartiles, minimum, maximum ou déciles). Il est souvent utilisé pour comparer rapidement deux séries. Dans GranulatShiny, la série de la variable expliquée (ici l’abondance) dans la zone avec impact est comparé avec celle de la zone sans impact. Il est possible dans l’application de passer à une échelle log pour avoir une meilleure visualisation des boxplots car les valeurs extrêmes élevées peuvent engendre l’écrasement du graphique. D’un point de vue graphique, la médiane est le trait horizontal qui traverse la boite à moustache. Les bords en largeur de la boite correspondent aux quartiles 25 et 75 pourcent.

Dans le paragraphe 8.4.1 du “Protocole halieutique”, il est indiqué de décrire et analyser les données par groupe de taille, par maturité ou par groupe fonctionnel. L’application GranulatShiny ne permet pas de redécouper les tableaux données en sous-groupe. Cela est à faire en amont par l’utilisateur. Pour analyser un groupe fonctionnel particulier, il faut faire un tri sur son fichier “TuttiCatch” et enregistrer ce nouveau tableau pour pouvoir l’intégrer dans l’application. Cela permet d’appliquer la méthode statistique de GranulatShiny sur les espèces à traiter séparément.

Après l’exploration des données, il est possible de passer à l’onglet suivant en appuyant sur le bouton “Choisir la probabilité de distribution” ou en cliquant sur “diagnostique d’analyse”.

Diagnostique d’analyse

Cet onglet permet de choisir et de visualiser la distribution de probabilité qui correspond le mieux à la variable expliquée. En gris, c’est l’histogramme de fréquence de la variable, en bleu c’est la fonction de densité et en vert c’est la distribution de probabilité. Les paramètres de chaque distribution de probabilité sont approximés à l’aide de la moyenne et de l’écart type de la variable. Vous pouvez changer le type de distribution de probabilité et si elle ne correspond pas du tout, un message d’avertissement apparaît. Dans l’exemple c’est l’abondance qui est représenté et la loi choisie est une loi Lognormale.

Lorsque vous êtes satisfait de la distribution des probabilités, vérifiez la phrase au-dessus du bouton “Passer à la modélisation”. Il y a deux possibilités. Dans le cas où vous avez moins de 30 observations, la phrase dit : “Vous n’avez pas assez de valeurs pour passer à la partie modélisation”. Dans ce cas, vous devez changer la variable de travail car il n’y a pas assez de valeur pour créer un modèle pertinent. A l’inverse, vous aurez : “Après avoir choisi une distribution de probabilité, vous pouvez passer à la construction du modèle”. Lorsque vous avez terminé, appuyez sur le bouton “passer à la modélisation”.

Modélisation

Création des modèles

Cette partie est consacrée à la création d’un modèle pour l’analyse inférentielle. La variable analysée est rappelée en haut à gauche de l’onglet et peut être modifiée dans l’onglet représentation des données. Dans l’application il est possible de réaliser 3 types de tests inférentiels : GLMM, GLM, Permanova. Dans un premier temps ce chapitre rappelle les principes généraux de statistiques employées dans l’application.

  Principes généraux de statistiques nécessaires à l’utilisation de l’outil

    Méthode paramétrique et non-paramétrique

Le domaine des statistiques existe parce qu’il est généralement impossible de collecter des données auprès de tous les individus concernés (population). La seule solution consiste à collecter des données auprès d’un sous-ensemble (échantillon) des individus concernés, mais le véritable objectif est de connaître la “vérité” sur la population. Les quantités telles que les moyennes, les écarts types et les proportions sont toutes des valeurs importantes et sont appelées “paramètres” lorsque l’on parle d’une population. Étant donné que l’on ne peut généralement pas obtenir de données sur l’ensemble de la population, on ne peut pas connaître les valeurs des paramètres pour cette population. Il est toutefois possible de calculer des estimations de ces quantités pour l’échantillon. Lorsqu’elles sont calculées à partir des données de l’échantillon, ces quantités sont appelées “statistiques”. Une statistique estime un paramètre. Les procédures statistiques paramétriques reposent sur des hypothèses concernant la forme de la distribution (c’est-à-dire une distribution normale) dans la population sous-jacente et sur la forme ou les paramètres (c’est-à-dire les moyennes et les écarts-types) de la distribution supposée. Les procédures statistiques non paramétriques ne reposent sur aucune ou peu d’hypothèses concernant la forme ou les paramètres de la distribution de la population dont l’échantillon a été tiré.

    Modèles linéaires

Un modèle linéaire classique est une méthode paramétrique qui permet d’étudier la liaison statistique entre une variable réponse Y et les variables explicatives X. Soit yi la réponse de l’individu i et xi les valeurs prises par les variables explicatives pour cet individu. La relation entre X et Y peut s’écrire sous la forme : \[Y = α + βX + ε \] où ε représente les résidus du modèle, la variance de la variable Y non expliquée par les variables explicatives X, distribuée selon une loi normale d’espérance nulle. Le terme α correspond à ce qu’on appelle l’intercept et β représente les coefficients estimés du modèle des variables explicatives X.

    Modèles linéaires généralisés

La variable réponse pour un modèle linéaire doit être une variable approximativement normalement distribuée. De tels modèles trouvent une large application, mais ne peuvent pas gérer des réponses continues clairement discrètes ou asymétriques. Par exemple, les variables réponses de type “comptage”, souvent asymétrique ainsi que les variables binaires comme la présence/absence ne suivent pas une loi normale. Les modèles linéaires ne sont donc pas adaptés à ce type de variables. Les modèles linéaires généralisés (GLM) permettent l’extension des idées de modélisation linéaire à une classe plus large de types de réponse, comme celles énoncées précédemment, sous une méthodologie de modélisation commune. Une chose importante à comprendre dans les GLM est la relation entre les valeurs de la variable de réponse, Y (telles que mesurées dans les données et prédites par le modèle dans les valeurs ajustées) et le prédicteur linéaire. Le prédicteur linéaire émerge du modèle linéaire comme une somme de chaque terme du modèle. Le prédicteur linéaire correspond à la variable Y seulement lors d’un modèle linaire classique suivant une loi normale. Dans le cas de modèle linéaire généralisé, c’est la fonction de lien, g, qui relie la valeur Y à son prédicteur linéaire N. \[ N =g(Y) \] La valeur de N est obtenue en transformant la valeur de Y par la fonction de liaison g, et la valeur prédite de Y est obtenue en appliquant la fonction de liaison inverse à N.
En utilisant différentes lois de distribution et donc différentes fonctions de lien, il est possible d’observer les conséquences sur les hypothèses des résidus du modèle. La fonction de lien la plus appropriée est celle qui produit les résidus les plus conformes.

    Modèle linéaire généralisé mixte

Les modèles linéaires mixtes généralisés (GLMM) sont une extension des GLM. Un GLMM est dit “mixte” parce qu’il comprend au moins un effet “fixe”, les variables explicatives et au moins un effet “aléatoire”. Les effets aléatoires ne sont pas des termes évalués, ils servent uniquement à indiquer au modèle que les données ne sont pas indépendantes et reflètent une corrélation entre les unités statistiques. D’un point de vue statistique, cela permet d’estimer précisément la déviance résiduelle et donc d’éviter de biaiser l’erreur standard des paramètres. Au final, cela se traduit par des p-values plus fiables.

    Analyse de variance par permutations

C’est une méthode non paramétrique alternative à l’analyse de variance classique dans le sens où elle ne se base pas sur la supposition que les données suivent des lois de distribution linéaires classiques ou généralisées comparables. Elle est en ce sens plus robuste à la normalité et l’homogénéité des variances des résidus ou des observations. Elle est également flexible car elle se base sur des matrices d’association et le coefficient d’association peut-être choisi en adéquation entre l’objectif et les données. Elle peut être appliquée à des données de toute dimension (y compris univariée) en fonction d’un ou deux facteurs qualitatifs.
L’hypothèse nulle est qu’il n’y a pas de différence dans la position et/ou la dispersion des groupes définis par les modalités des facteurs qualitatifs dans un espace multidimensionnel. Son principe consiste donc à construire une matrice d’association entre les éléments, c’est-à-dire une matrice reportant toutes les distances entre chaque paire d’éléments et calculer la somme des carrées des distances inter-groupe et intra-groupe. Comme dans une analyse de variance classique, la variance inter-groupe est mise en relation avec la variance intra-groupe. Plus le rapport entre la variance inter-groupe et la variance intra-groupe est grand plus sont grandes les chances que les différences constatées entre les groupes soient réelles. Si la statistique obtenue par les échantillons est en dehors des 95 % de l’aire de distribution, H0 est rejetée. Dans le cas d’une Permanova, la distribution est obtenue par permutation : les données sont redistribuées aléatoirement un grand nombre de fois. Cette distribution des données issues de ces redistributions aléatoires correspond à la distribution sous l’hypothèse nulle.
L’inconvénient de la Permanova est que cela permet de savoir qu’au moins 1 des groupes est différent des autres mais on ne sait pas lequel. Et lorsque l’on cherche à évaluer si deux éléments sont associés ou non, il peut arriver que les valeurs soient nulles pour 2 éléments. Hors en écologie, le zéro induit une absence de l’espèce considérée. Dans ce dernier cas, ce double 0 est donc classiquement non pris en compte pour estimer la ressemblance entre deux éléments notamment dans un esprit de caractérisation de communauté biologique. Cette prise en compte ou non du double zéro se décide sur le choix du coefficient d’associations dans le calcul de la matrice de distance.

  Ecriture du modèle avec GranulatShiny

Selon le type de modèle que vous choisissez, vous aurez une première formulation différente du modèle : \[GLMM → Abun \sim traitement * saison + (1\|campagne) + (1\|station)\] \[GLM → Abun \sim traitement * saison\] \[PERMANOVA → Abun \sim traitement * saison\]

Les modèles sont centrés sur la variable traitement car le suivi des concessions d’extraction de granulats marins est basée sur la méthode BACI (Before After Control Impact). Par définition, la méthode BACI compare des sites témoins (c’est-à-dire non impactés) et des sites impactés et teste les différences entre l’avant et l’après. Il s’agit d’une méthode couramment utilisée dans la surveillance de l’environnement océanique et une méthode BACI bien conçue reste l’une des meilleurs approches pour les programmes de surveillance des effets sur l’environnement. Malheureusement, cette méthode présente plusieurs limites qui compromettent sa capacité à détecter des effets notamment parce que l’océan est spatialement et temporellement dynamique, et que trouver deux emplacements statistiquement identiques l’un à l’autre tout en étant suffisamment éloignés géographiquement pour être statistiquement indépendants constitue un véritable défi.

Pour un GLMM et un GLM, vous devrez choisir une distribution de probabilité. Par défaut, il propose la dernière distribution de probabilité que vous avez vérifiée dans la partie précédente. Attention la méthode utilisée pour la modélisation est une méthode itérative, il se peut donc que la distrubution qui semblait la plus adéquate dans la partie précédente n’est pas forcément celle qui permettra de mieux faire converger le modèle. Néanmoins la partie d’avant est là pour sélectionner un nombre de distribution possible pour ne pas avoir à tous tester ici.

Vous pouvez également conserver ou non l’interaction entre les covariables traitement et saison. Attention si l’interaction n’apporte rien au modèle celle-ci est retirée automatiquement. Vous pouvez également ajouter d’autres covariables dans votre modèle. Elles seront ajoutées sans interaction avec les autres. Lorsque vous êtes prêt, vous pouvez cliquer sur “démarrer la modélisation”.

    Modèle linéaire mixte généralisé

C’est la méthode à prioriser. Dans le paragraphe 8.4.2 du “protocole halieutique”, il est dit que pour évaluer la variabilité temporelle et spatiale des différents indicateurs des ressources halieutiques avant extraction, il faut utiliser des modèles linéaires généralisés à effets mixtes (GLMMs) avec les variables temporelle et spatiale définies comme effets aléatoires croisés plus un effet saisonnier fixe. La première sortie est un écran de la console r. Vous pouvez choisir d’afficher le tableau d’analyse de la déviance ou le résumé du résultat de la modélisation. Vous pouvez choisir d’afficher les résultats du modèle avant optimisation via le choix initial ou alors le modèle optimisé via le choix final en bas à gauche.

Sortie du modèle GLMM sur l’abondance.

## Generalized linear mixed model fit by maximum likelihood (Laplace
##   Approximation) [glmerMod]
##  Family: gaussian  ( identity )
## Formula: log(Abun) ~ traitement * saison + (1 | campagne) + (1 | station)
##    Data: dataset
## 
##      AIC      BIC   logLik deviance df.resid 
##   1676.1   1726.4   -827.0   1654.1      708 
## 
## Scaled residuals: 
##     Min      1Q  Median      3Q     Max 
## -3.1925 -0.6111  0.0535  0.5899  3.5320 
## 
## Random effects:
##  Groups   Name        Variance Std.Dev.
##  campagne (Intercept) 0.010794 0.10390 
##  station  (Intercept) 0.004959 0.07042 
##  Residual             0.573266 0.75714 
## Number of obs: 719, groups:  campagne, 36; station, 20
## 
## Fixed effects:
##                                    Estimate Std. Error t value Pr(>|z|)    
## (Intercept)                        10.68015    0.10461 102.092  < 2e-16 ***
## traitementSans impact               0.11829    0.12315   0.961  0.33679    
## saisonSpring                        0.01607    0.14258   0.113  0.91025    
## saisonSummer                       -0.15548    0.14264  -1.090  0.27571    
## saisonAutumn                       -0.04808    0.14261  -0.337  0.73603    
## traitementSans impact:saisonSpring  0.46811    0.16796   2.787  0.00532 ** 
## traitementSans impact:saisonSummer  1.05791    0.16815   6.291 3.14e-10 ***
## traitementSans impact:saisonAutumn  0.44990    0.16803   2.678  0.00742 ** 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Correlation of Fixed Effects:
##                      (Intr) trtmSi ssnSpr ssnSmm ssnAtm trtmntSnsimpct:ssnSp
## trtmntSnsim          -0.719                                                 
## saisonSprng          -0.681  0.491                                          
## saisonSummr          -0.681  0.491  0.500                                   
## saisonAutmn          -0.681  0.490  0.500  0.499                            
## trtmntSnsimpct:ssnSp  0.491 -0.682 -0.720 -0.360 -0.360                     
## trtmntSnsimpct:ssnSm  0.491 -0.682 -0.359 -0.720 -0.359  0.499              
## trtmntSim:A           0.490 -0.681 -0.360 -0.359 -0.720  0.500              
##                      trtmntSnsimpct:ssnSm
## trtmntSnsim                              
## saisonSprng                              
## saisonSummr                              
## saisonAutmn                              
## trtmntSnsimpct:ssnSp                     
## trtmntSnsimpct:ssnSm                     
## trtmntSim:A           0.498

La parite haute du résultat rappelle le modèle qui a été utilisé pour calculer les effets.

## [[1]]
## [1] "Generalized linear mixed model fit by maximum likelihood (Laplace Approximation)"
## 
## [[2]]
## [1] "gaussian" "identity"
## 
## [[3]]
## glmer(formula = log(Abun) ~ traitement * saison + (1 | campagne) + 
##     (1 | station), data = dataset, family = gaussian(link = identity))

Il y a le type de modèle avec la méthode de calcul utilisée. Après, il y a la loi de probabilité et sa fonction de lien. Enfin, la commande complete est affichée ce qui permet de vérifier que la bonne commande a été effectuée.

Ensuite, il est possible de lire les caractéristiques du modèle.

##       AIC       BIC    logLik  deviance  df.resid 
## 1676.0889 1726.4454 -827.0445 1654.0889  708.0000

Ces paramètres sont utiles lorsqu’il s’agit de comparer plusieurs modèles entre eux.

Les “scaled residuals” sont les résidus du modèles. Des tests sont effectués dessus afin de vérifier la bonne convergence et le bon ajustement du modèle.

##      Min.   1st Qu.    Median      Mean   3rd Qu.      Max. 
## -3.192524 -0.611129  0.053534  0.000016  0.589887  3.532013

Le tableau des effets aléaoires est spécifique au GLMM. Il renseigne les informations sur cette partie de la formule :
(1 | campagne) + (1 | station)

##  Groups   Name        Std.Dev.
##  campagne (Intercept) 0.10390 
##  station  (Intercept) 0.07042 
##  Residual             0.75714

Enfin, il y a la partie sur les effets fixes. C’est cette partie qui permet de déterminer si les facteurs ont un effet sur la variable d’étude. La colonne “Estimate” permet de déterminer la valeur moyenne que prend la variable étudiée (dans notre exemple l’abondance totale) pour modalité des variables explicatives. Dans notre exemple, l’abondance est expliquée par la variable “traitement” avec 2 modalités (impact, Sans impact) et la variable “saison” avec 4 modalités (winter, spring, summer, autumn). La ligne (Intercept) correspond à une valeur de base. Cette valeur de base est associée à une modalités de chacune de nos variables. Ainsi en hiver et avec une impact le logarithme de l’abondance (car loi Lognormale) vaut en moyenne 10.68.

##                                       Estimate Std. Error     t value
## (Intercept)                        10.68014605  0.1046130 102.0919158
## traitementSans impact               0.11828840  0.1231490   0.9605307
## saisonSpring                        0.01607218  0.1425775   0.1127259
## saisonSummer                       -0.15547873  0.1426408  -1.0900021
## saisonAutumn                       -0.04807517  0.1426082  -0.3371136
## traitementSans impact:saisonSpring  0.46810522  0.1679592   2.7870176
## traitementSans impact:saisonSummer  1.05790539  0.1681487   6.2914879
## traitementSans impact:saisonAutumn  0.44990449  0.1680289   2.6775420
##                                        Pr(>|z|)
## (Intercept)                        0.000000e+00
## traitementSans impact              3.367882e-01
## saisonSpring                       9.102479e-01
## saisonSummer                       2.757122e-01
## saisonAutumn                       7.360312e-01
## traitementSans impact:saisonSpring 5.319559e-03
## traitementSans impact:saisonSummer 3.144374e-10
## traitementSans impact:saisonAutumn 7.416455e-03

Pour connaitre la valeur du logarithme de l’abondance en hiver et sans impact, il faut additionner la valeur Intercept à la valeur de l’estimate de la ligne “traitementSans impact” soit 10.68 + 0.12 qui vaut 10.8. Et pour vérifier si le changement est significatif, il suffit de regarder la colonne “Pr(>|z|)” et vérifier si la valeur est inférieur à 0.05. Maintenant, pour obtenir la valeur du logarithme de l’abondance en été et avec impact, il faut additionner la valeur Intercept à la valeur de l’estimate de la ligne “saisonSummer” soit 10.68 + (-0.16) soit 10.52. Enfin, en additionnant la valeur Intercept avec celle des lignes “traitementSans impact”, “saisonSummer”, “traitementSans impact:saisonSummer”, il est possible d’obtenir la valeur du logarithme de l’abondance en été sans impact soit 10.68 + 0.12 + (-0.16) + 1.10 qui donne 11.74. Dans l’exemple, c’est l’interaction entre la saison et le traitement qui apporte des changement significativement différent. Ainsi, si ces deux variables étaient considérée séparément, leur effet sur l’abondance ne serait pas visible.

Et la dernière section montre les corrélations entre les termes à effet fixe du modèle. Chaque ligne et chaque colonne représentent un terme à effet fixe, et les valeurs du tableau sont les corrélations entre ces termes. Ces corrélations sont calculées sur la base de la matrice de covariance des estimations des effets fixes. Elles indiquent comment les effets estimés des différents facteurs fixes du modèle sont liés les uns aux autres.

Analyse a posteriori du modèle GLMM sur l’abondance.

L’autre sortie est un graphique utilisant le package DHARMa pour résumer les résidus du modèle. Le premier graphique représente les résidus attendus par les observations. Si les points ne suivent pas la ligne rouge, il y a un problème avec le choix du modèle. Il existe également 3 tests : Kolmogorov-Smirnov, Dispersion et Valeur aberrante. Le test de Kolmogorov-Smirnov est un test d’hypothèse utilisé pour déterminer si un échantillon suit bien une loi donnée connue par sa fonction de répartition continue. Le test statistique par défaut dans DHArMa pour le test de dispersion est l’écart-type observé / simulé des données. Et le test de valeur aberrante permet de vérifier si le nombre d’observations en dehors de l’enveloppe de simulation est plus grand ou plus petit que prévu. Pour chaque test, il y a un calcul de la déviation. S’il est significatif, il apparaît en rouge et le test n’est pas concluant.
Sur l’autre graphique, des tests sont réalisés sur l’uniformité et l’homogénéité des groupes évalués dans le modèle. Le premier test, s’il est en rouge, vous alerte sur le fait que certaines distributions de résidus au sein des groupes ne sont pas uniformes, c’est-à-dire que si vous représentez vos résidus pour un groupe spécifique (celui qui est surligné en rouge), ils ne semblent pas uniformes. Donc ils s’écartent de manière significative des hypothèses de votre modèle. S’il n’est pas en rouge, le test est validé. Le deuxième test correspond à un test de Levene. En statistique, le test de Levene est une statistique déductive utilisée pour évaluer l’égalité de variance pour une variable calculée pour deux groupes ou plus.
Dans le cas particulier où il y a trop de modalités différentes dû à de multiple covariables, la partie sur l’uniformité et l’homogénéité des groupes est remplacé par une représentation des prédictions du models en comparaison avec les résidus du modèle. Si n’y a aucun problème alors la phrase : “No significant problems detected” s’affiche en haut du graphique. Si certains tests sont significatifs, ils apparaîssent en rouge et le test n’est pas concluant. Enfin, les valeurs aberrantes de la simulation (points de données qui se situent en dehors de la plage des valeurs simulées) sont mises en évidence par des étoiles rouges. Ces points doivent être interprétés avec précaution, car nous ne savons pas “à quel point” ces valeurs s’écartent des attentes du modèle. L’important est de vérifier que les tests de vérification ne soient pas significatifs.


Dans le cas de l’exemple, les tests de Kolmogorov-Smirnov, de Valeur aberrante et de dispersion ne sont pas significatifs donc il n’y a pas de problème. Si un de ces tests s’affichaient en rouge, cela indiquerait que le modèle n’est pas optimal et il serait possible alors de chercher un autre modèle qui s’ajusterait mieux. Comme ces modèles se basent sur des données réelles, il est parfois impossible de trouver un modèle parfait. Il faut alors choisir le modèle avec le moins d’avertissement. On peut voir également que le test d’uniformité est validé mais pas celui d’homogénéité. Une fois le modèle validé, vous pouvez changer d’onglet et passer à la visualisation des effets associés au modèle.
Si l’on rajoute la covariable année à notre modèle GLMM, cela représente 96 modalités. Le graphique comparant les groupes est remplacé par un graphique comparant les prédictions globales avec les résidus du modèle.


Il arrive cependant que dans certains cas particuliers, les GLMMs n’arrivent pas fournir de résultat. Dans ces cas là, un message d’erreur apparait : “Il y a une erreur lors de la modélisation. Veuillez changer la loi ou le modèle.” Il est possible aussi que le modèle produise des résultats mais dont l’analyse des résidus a posteriori n’est pas satisfaisante.
Exemple :


Il est alors possible d’essayer avec un GLM et si la modélisation pose encore problème, il faut alors réalisé une Permanova. En dessous de 30 valeurs positives, il n’est pas recommandé d’utiliser un GLMM ou GLM.

    Modèle linéaire généralisé

Sortie du modèle GLM sur l’abondance

## 
## Call:
## glm(formula = log(Abun) ~ traitement * saison, family = gaussian(link = identity), 
##     data = dataset)
## 
## Coefficients:
##                                    Estimate Std. Error t value Pr(>|t|)    
## (Intercept)                        10.68271    0.09201 116.106  < 2e-16 ***
## traitementSans impact               0.11410    0.11770   0.969  0.33266    
## saisonSpring                        0.01560    0.13012   0.120  0.90458    
## saisonSummer                       -0.14765    0.13012  -1.135  0.25687    
## saisonAutumn                       -0.05388    0.13012  -0.414  0.67896    
## traitementSans impact:saisonSpring  0.46888    0.16645   2.817  0.00498 ** 
## traitementSans impact:saisonSummer  1.04555    0.16660   6.276 6.04e-10 ***
## traitementSans impact:saisonAutumn  0.45938    0.16645   2.760  0.00593 ** 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## (Dispersion parameter for gaussian family taken to be 0.5925863)
## 
##     Null deviance: 529.85  on 718  degrees of freedom
## Residual deviance: 421.33  on 711  degrees of freedom
## AIC: 1674.2
## 
## Number of Fisher Scoring iterations: 2

Le GLM sort des résultats proches de celui du GLMM et s’analyse de la même manière. Cependant, celui est moins précis. Il ne prend pas en compte les effets aléatoires induits par l’environnement ou la méthode utilisée.

    Analyses de variances par permutations

Méthode de Permanova intégrée dans l’application

Dans le cas de Granulatshiny, la Permanova est appliquée sur une matrice colonne regroupant des la plupart du temps des abondances ou des biomasses. Ainsi les doubles zéros ne peuvent donc pas être pris en compte dans le calcul de ressemblance. Donc les données sont quantitatives et les doubles zéros ne sont pas considéré donc la méthode qui semble la plus approprié est celle du coefficient de Bray-Curtis. C’est le choix qui avait été fait à l’origine.
L’indice de dissimilarité de Bray-Curtis, est utilisé en écologie et biologie pour évaluer la dissimilarité entre deux échantillons donnés, en termes d’abondance de taxons présents dans chacun de ces échantillons. Elle est compris entre 0 (les deux échantillons ont la même composition) et 1 (les échantillons sont totalement dissemblables). La dissimilarité de Bray-Curtis est souvent utilisée dans la littérature. Elle est asymétrique et semimétrique. Elle se calcule comme ceci : \[ d_{jk}=\frac{\sum_{i} |x_{ij}-x_{ik}|}{\sum_{i} (x_{ij}+x_{ik})} \]i = colonne; j,k = lignes comparées; x = valeurs d’abondances Dans le cas où la matrice d’entrée n’a qu’une seule colonne soit une seule espèce et que dans les valeurs d’entrées, il existe des zéros, il arrive parfois que le dénominateur soit égale à zéro ce qui n’est pas possible et donc créer une erreur dans la matrice de distance. C’est le cas pour tous les indicateurs habituellement utilisés pour des données d’abondances qui pondèrent leur distance en fonction de l’abondance totale dans les sites comparés. Cette méthode ne pouvant s’utiliser dans notre cas, un autre coefficient de calcul de distance a été recherché. Celui-ci ne devait également pas tenir compte des doubles zéros sur des quantitatives.

La méthode retenue est la métrique du chi². Celle-ci donne davantage de poids aux espèces rares qu’aux espèces communes. Son utilisation est recommandée lorsque les espèces rares sont de bons indicateurs de conditions écologiques particulières. Pour appliquer cette méthode, il faut d’abord standardiser les données selon la méthode du chi² comme ceci : \[ x'_{ij}=\frac{x_{ij}}{\sum x_{j} * \sqrt \sum x_{i}} \]i = colonne; j = ligne; x = valeurs d’abondances Ensuite, on calcule la matrice de distance en calculant la distance euclidienne sur la matrice de données standardisées. \[d_{jk}=\sqrt \sum_{i} (x_{ij}-x_{ik})² \]i = colonne; j,k = lignes comparées; x = valeurs d’abondances standardisées

L’inconvénient avec cette méthode, le calcul des effets se produisant sur des données transformées, il est n’est pas possible de quantifier directement l’impact d’un effet sur la variable initiale. On ne peut donc pas dire si un effet est plus ou moins fort sur la donnée initiale car celui-ci s’applique à la donnée transformée. Par contre, si un effet est considéré significatif sur les données transformées alors il l’est également sur les données initiales.

Sortie de la Permanova sur l’abondance

## Permutation test for adonis under reduced model
## Terms added sequentially (first to last)
## Permutation: free
## Number of permutations: 999
## 
## adonis2(formula = dist ~ traitement * saison, data = dataset, permutations = 999)
##                    Df SumOfSqs      R2      F Pr(>F)    
## traitement          1 0.013749 0.08340 72.435  0.001 ***
## saison              3 0.008051 0.04883 14.138  0.001 ***
## traitement:saison   3 0.008098 0.04912 14.220  0.001 ***
## Residual          711 0.134958 0.81864                  
## Total             718 0.164856 1.00000                  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Dans le tableu de sortie de la Permanova, on retrouve le nombre de permutations et la formule du modèle. Ensuite on retouve plusieurs indicateurs associés à chaque covariable explicative.
Df (degrés de liberté): Cette colonne indique les degrés de liberté associés à chaque terme du modèle.
SumOfSqs (Somme des carrés): Cette colonne indique la somme des distances au carré entre les observations dans l’espace multivarié.
R2 (R-carré): Cette colonne indique la proportion de variance expliquée par chaque terme du modèle. Par exemple, pour “traitement”, 8,34 % de la variation des données peut être expliquée par le facteur traitement.
F (statistique F) : Cette colonne indique la statistique F pour chaque terme, qui vérifie si la variation expliquée par ce terme est significativement plus importante que ce que l’on attendrait du hasard. Des valeurs F plus élevées indiquent des preuves plus solides contre l’hypothèse nulle d’absence d’effet.
Pr(>F) (valeur p): Cette colonne indique la valeur p associée à la statistique F pour chaque terme. Elle indique la probabilité d’observer les données si l’hypothèse nulle d’absence d’effet (c’est-à-dire si toutes les moyennes des groupes sont égales) était vraie. Des valeurs p plus faibles suggèrent une preuve plus forte contre l’hypothèse nulle et indiquent que le terme est un prédicteur significatif de la variation.
La Permanova est la méthode à utiliser en dernière. Elle esty moins précise et apporte moins d’informations qu’un GLMM ou qu’un GLM.

Analyse complémentaire a posteriori de la Permanova sur l’abondance.


Les mêmes boites à moustaches que dans l’onglet Représentation des données sont affichées. Sauf que si la variable de comparaison (dans l’exemple c’est le traitement) a un effet significatif sur la variable expliquée (ici l’abondance) alors la p-value apparait en rouge en haut à gauche du graphique. S’il n’y a pas d’effet détecté pendant la Permanova alors le message “Pas d’effet” apparait en haut à gauche du graphique.

Représentation des effets

Cette onglet permet de visualiser graphiquement les effets des variables explicatives sur la variable expliquée dans le cas d’un GLMM ou d’un GLM. Dans le cas d’une Permanova, cette section n’est pas sollicitée et la fenêtre graphique sera blanche. Cette partie retransfrome les estimates du modèles en l’unité initiale (dans le cas de l’abondance c’est un nombre par km²). Ainsi on peut voir la valeur moyenne de l’abondance en fonction de la saison et du traitement. D’abord vous devez choisir les deux prédicteurs à représenter.

Si vous avez plusieurs covariables vous devez les fixer afin de pouvoir visualiser le graphique.
Dans l’exemple d’un GLM qui regarde l’abundance totale en fonction du traitement et de la saison, voici le graphique obtenu :


Ce graphique est une autre manière de représenter le tableau de sortie du modèle de l’onglet précédent.

Puissance statistique

Cette partie est en cours de développement. L’outil antérieur construit par Mathis Cambreling fonctionne seulement pour le jeu de données ayant servi de base à ses calculs. L’outil n’étant pas généralisable, celui-ci a été retiré pour assurer la stabilité actuelle de l’application. Un autre outil est en cours de développement.

Bibliographie

Avezard C, Lavarde P, Pichon A, Legait B, Wallard I (2017) Impact environnemental et ́economique des activit ́es d’exploration ou d’exploitation des ressources minérales marines.

David V (2019) Statistique pour les sciences environnementales. ISTE Editions, Londres, Royaume-Uni

Gorodetska N, Behaghel G, Dalifard T, Daniel F, Grison X, Hausermann B, Laurent C, De Lantivy S, Lefebvre E, Panonacle H, et al (2023) L’ ́economie bleue en France.

Legendre P, Gallagher ED (2001) Ecologically meaningful transformations for ordination of species data. Oecologia 129: 271–280

Methratta ET (2020) Monitoring fisheries resources at offshore wind farms: BACI vs. BAG designs. ICES Journal of Marine Science 77: 890–900

Ministère de l’Environnement de l’́energie et de la mer (2016) Guide méthodologique pour l’élaboration des documents d’orientations pour une gestion durable des granulats marins (DOGGM). Ministère de l’Environnement, de l’Energie et de la Mer. Paris

MTE, UNPG, IFREMER, DREAL, DIRM (2023) Guide technique pour l’élaboration des ́etudes d’impact préalables à la recherche et l’exploitation des granulats marins. 48

Oksanen J (2022) Dissimilarity Indices for Community Ecologists.

Parent S-E (2020) Analyse et modélisation d’agroécosystèmes.

Rassweiler A, Okamoto DK, Reed DC, Kushner DJ, Schroeder DM, Lafferty KD (2021) Improving the ability of a BACI design to detect impacts within a kelp-forest community. Ecological Applications 31: e02304

Seger KD, Sousa-Lima R, Schmitter-Soto JJ, Urban ER (2021) Editorial: Before-After Control-Impact (BACI) Studies in the Ocean. Frontiers in Marine Science 8:

Smokorowski KE, Randall RG (2017) Cautions on using the Before-After-Control-Impact design in environmental effects monitoring programs. FACETS 2: 212–232

Underwood AJ (1994) On Beyond BACI: Sampling Designs that Might Reliably Detect Environmental Disturbances. Ecological Applications 4: 4–15

Walker R, Bokuniewicz H, Carlin D, Cato I, Dijkshoorn C, Backer AD, Dalfsen J van, Desprez M, Howe L, Robertsdottir BG, et al (2016) Effects of extraction of marine sediments on the marine environment 2005-2011. doi: 10.17895/ices.pub.5498

WGEXT (2019) Working Group on the Effects of Extraction of Marine Sediments on the Marine Ecosystem (WGEXT). doi: 10.17895/ices.pub.5